SIGNAL (THÉORIE DU)


SIGNAL (THÉORIE DU)
SIGNAL (THÉORIE DU)

La théorie du signal est un chapitre de la théorie de la communication . La communication est la transmission de messages d’information. Elle met en relation orientée à travers un canal un système de départ (source ou émetteur de messages) et un système d’arrivée (destinataire ou récepteur des messages).

Ce qui est communiqué est une information – au sens le plus large – qui modifie l’état ou l’évolution du destinataire. Celui-ci apprend «quelque chose» qu’il ne savait pas, sinon la communication perd son objet. Le message est l’expression de cette information dans un langage intelligible par le destinataire.

En fait, il n’y a pas lieu de distinguer entre information et message, car, même conceptuelle, l’information utilise déjà un langage. Celui-ci est un codage au sens large. La transcription codée, au sens technique du mot (Morse, binaire...), conserve le message. Aussi envisage-t-on plus simplement le message par son expression: succession de lettres (texte) ou de signes conventionnels d’un code. Ce peut être aussi une fonction sur un ensemble continu (parole, image...).

La théorie de l’information est l’étude statistique des messages (cf. théorie de l’INFORMATION). Elle mesure des quantités, des débits, des pertes, etc. d’information. Le signal est le moyen qui rend la communication techniquement possible. C’est d’abord une grandeur de nature physique quelconque (acoustique, optique, électrique...) et généralement variable, par exemple au cours du temps. Elle est le revêtement physique des messages. Ainsi, en télégraphie, le message est constitué par un texte en clair ou chiffré, puis codé en Morse, par exemple, et le signal par une tension sur une ligne ou par une onde hertzienne modulée. Dans le cas de la commande d’une machine (machine-outil, ordinateur...), le message est le programme d’instructions codées sur cartes ou rubans perforés, aujourd’hui surtout sur disques, et le signal est un signal électrique par «tout ou rien».

La théorie du signal fait abstraction de la nature physique des grandeurs. Elle consiste dans l’étude des modèles mathématiques qui représentent le plus commodément le signal et rendent compte de sa transformation par les systèmes de transmission. Le rôle des électroniciens dans son développement s’explique par la double raison suivante: d’une part, l’électronique a apporté son extraordinaire souplesse dans ce qu’on appelle le traitement du signal et, d’autre part, le signal est la raison d’être de cette discipline. En effet, les composants, les circuits, les systèmes de l’électronique ne sont étudiés que pour aboutir à la fabrication de signaux de communication.

Le signal ne peut être étudié qu’en relation avec les systèmes qui le transmettent. Ceux-ci interviennent de deux façons: ils permettent de «traiter» le signal (amplificateurs, modulateurs, détecteurs, etc.), ou bien ils apportent une détérioration indésirable (bande passante insuffisante, bruit).

1. Types de signaux

Classification

Il y a diverses façons de classer les signaux temporels x (t ), x étant une grandeur quelconque:

– Selon le rôle du hasard dans leur détermination, on distingue entre signaux certains et signaux aléatoires . La situation la plus courante est celle du signal certain, porteur de l’information, corrompu par un «bruit» de nature aléatoire. Toutefois, celui-ci peut être un parasite certain, la fréquence du secteur, ou un brouillage, par exemple. À l’inverse, l’information utile peut être portée par un signal aléatoire. C’est le cas de la radioastronomie, où l’on reçoit du «bruit dans du bruit».

– Suivant les propriétés temporelles , un signal analogique x (t ) est défini sur un ensemble continu d’instants, un intervalle, les réels positifs ou la totalité des réels. Un signal dit, abréviativement, discret est défini sur une suite, finie ou non, d’instants t n : x (t n ) = x n . En général, t n = n T est un multiple entier d’un temps d’horloge T.

L’échantillonnage de «pas» T d’un signal analogique x (t ) consiste à lui associer le signal discret: face=F0019x (n T). Les signaux numériques sont les signaux discrets x n = k , multiples entiers d’un certain quantum . Se prêtant à l’emploi de l’ordinateur, ils jouent aujourd’hui un rôle considérable dans le traitement des données, notamment en télématique. La grandeur x peut être scalaire, réelle ou complexe, vectorielle, tensorielle... L’extension à l’imagerie optique ou acoustique se fait en prenant pour t un point de R2 ou R3.

– On peut caractériser les signaux par leurs propriétés spectrales : soit x (t ), x complexe, t réel, de transformée de Fourier x ( 益). On appelle spectre du signal le support de sa transformée de Fourier. Corrélativement à la description précédente, on distingue entre signaux à spectre continu , par exemple les signaux à spectre borné:

et les signaux à spectre de raies , tels que les signaux périodiques, cas particulier des signaux presque périodiques représentés par une série de Fourier généralisée:

(An complexe, 益n réel). On a: sp x = 益n.

– Enfin, les signaux peuvent être classés suivant une notion de niveau . Le niveau du signal peut être l’amplitude des signaux continus bornés:

ou l’énergie des signaux d’énergie finie:

ou la puissance des signaux de puissance moyenne positive:

Cela équivaut à classer les signaux suivant leur appartenance à des espaces vectoriels normés tels, ci-dessus, , L2 (espace de Hilbert), 2 (espace de Marcinkiewicz). De même, aux signaux sommables (L1) on assignerait, comme niveau, la moyenne:

Modèles mathématiques

L’objet de la théorie du signal est l’exploitation de modèles mathématiques appropriés et dont le choix est adapté au problème envisagé. Ainsi, les signaux d’énergie finie (3) exploitent les propriétés de l’espace de Hilbert L2, notamment l’orthogonalité. D’où les représentations suivant des bases orthonormées et l’approximation par les moindres carrés. D’autre part, l’importance des problèmes spectraux fait jouer un rôle majeur à la représentation de Fourier telle que, par exemple:

Si x (t ) est l’entrée d’un système de transmission dit filtre de fonction de transfert H( 益), la réponse est explicitement:

La théorie du signal tire un grand parti de la théorie des distributions (cf. DISTRIBUTIONS [mathématiques] et calcul SYMBOLIQUE). Elle permet d’unifier le traitement des signaux analogiques et des signaux discrets et, corrélativement, des spectres continus et des spectres de raies. Elle assigne des transformées de Fourier aux signaux usuels:

u (t ) est l’échelon de Heaviside (0 pour t 麗 0, 1 pour t 礪 0) et où Pf signifie pseudofonction. D’autre part, la mesure de Dirac 嗀 est le modèle naturel d’une impulsion unité à l’origine. D’où la représentation des signaux discrets et des spectres de raies par les mesures associées:

Autre résultat majeur: tous les filtres sont des systèmes de convolution. De façon plus précise, un filtre étant défini comme une application: y = 硫(x ), linéaire, stationnaire et continue, d’un espace de signaux-distributions d’entrée dans un espace de signaux-distributions de sortie, on a donc:

où 精h est un opérateur de translation,

(convergence au sens des distributions), d’où:

h = 硫( 嗀) est la réponse impulsionnelle du filtre.

L’essentiel de la théorie du signal peut être décrit en passant en revue les avatars d’un signal temporel dans un schéma de communication.

2. Émission

Soit l’émission d’un signal analogique certain x (t ), x complexe, appartenant à une famille appropriée. La symétrie de la transformée de Fourier établit une corrélation temporel-spectral entre les familles (par exemple entre le spectre de raies d’un signal analogique périodique et le spectre continu périodique, de période fréquentielle 1/T, d’un signal discret de pas T).

Signaux causaux

Les signaux causaux sont ceux qui sont nuls avant un instant donné, t = 0 par exemple. Tout signal expérimental est certainement causal. La réponse d’un filtre à x causal est y , également causal. C’est le principe même de causalité, d’où la dénomination. Les distributions causales sont les distributions à support borné à gauche (espace+). La réponse impulsionnelle d’un filtre dit réalisable est causale. L’intérêt des propriétés spectrales des signaux causaux est que ce sont en même temps celles des fonctions de transfert des filtres réalisables.

La causalité se traduit sur la transformée de Fourier:

par une relation entre partie réelle et partie imaginaire, que l’on déduit immédiatement de la transformée de Fourier de l’identité: x = ux , où u est l’échelon de Heaviside. Chacune des fonctions A et B est une transformée de Hilbert de l’autre:

Avec des fonctions usuelles A( 益) et B( 益), on aurait explicitement les relations de dispersion:

(où VP a le sens de «valeur principale de Cauchy»).

Une importante condition nécessaire et suffisante de causalité est exprimée par le critère de Paley-Wiener:

Ainsi, un filtre qui aurait une bande d’atténuation idéale x ( 益) = 0 sur un intervalle ( 益1, 益2), si petit fût-il, ne peut être réalisable.

Signaux analytiques

Les signaux analytiques sont corrélatifs des signaux causaux; leur spectre ne contient que des fréquences positives: x ( 益) = 0 pour 益 麗 0. Ils sont nécessairement complexes:

x et x sont liés par les relations de dispersion (13). On a entre leurs transformées de Fourier la relation de quadrature (transformation Q):

d’où l’on déduit les représentations conjuguées:

Signaux discrets

Dans le cas de signaux discrets x n = 0 pour n 麗 0, les relations (12) deviennent:

où A et B sont périodiques de période 1/T.

Signaux à spectre borné

On appelle signaux à spectre borné les signaux dont le spectre est contenu dans un intervalle borné: [ 漣 max, max]. Il résulte de leur expression:

qu’ils sont indéfiniment dérivables (ce sont même des restrictions à l’axe des t réels de fonctions entières). Ce sont des signaux très réguliers. L’absence de composantes de hautes fréquences a pour effet pratique de réduire la rapidité de variation dans le temps de tels signaux, qu’on peut dénommer lents . C’est ce que précise le théorème de Bernstein : toutes les dérivées d’un signal borné |x (t )| 諒 M, de spectre [ 漣 max, max] borné, sont bornées et on a:

En particulier, |x (t )| 諒 2 神maxM, donc la pente de la tangente est d’autant plus faible que le spectre est étroit. Il faut remarquer qu’un signal ne peut pas être à la fois de durée finie et de spectre borné.

Une propriété fondamentale des signaux à spectre borné est le théorème d’échantillonnage , appelé par les uns de Shannon, par les autres de Kotelnikov, en fait dû à E. T. Whittaker (1918) et qu’on rencontre déjà chez Cauchy. Il se traduit par la représentation de x (t ) au moyen des seuls échantillons:

Ces échantillons sont répartis avec une densité de 2max échantillons par seconde, donc d’autant plus faible que le signal est plus «lent».

La convergence de (21) est interprétée, selon les cas, en fonction de la nature de x (t ) (simple, en moyenne quadratique, en valeur principale:

Le signal échantillonnéx (n /2max) est le signal peigne(nT) , modulé en amplin tude par x (t ). La transmission des échantillons est protégée du bruit qui est présent aux instants intermédiaires. À la réception, x (t ) est récupéré par simple filtrage passe-bas du signal échantillonné.

Une application importante est le multiplexage temporel , où plusieurs communications téléphoniques x 1(t ), x 2(t )... sont transmises simultanément sur la même voie par leurs échantillons judicieusement décalés dans le temps: t n = n T, n T + 精, n T + 2 精...

Un traitement important du signal d’émission, de spectre borné par + max, est la modulation par celui-ci, dit basse fréquence (B.F.), d’une ou plusieurs caractéristiques d’un signal périodique auxiliaire, dit porteur, de fréquence 益0 礪礪 max. Le signal résultant est dit modulé , ou haute fréquence (H.F.).

La modulation [cf. MODULATION ET DÉMODULATION] a surtout pour objet de transporter le spectre B.F. C’est le cas en radioélectricité du fait des conditions imposées par la propagation et par les circuits (antennes). On notera l’intérêt des signaux analytiques dans la réduction de l’encombrement spectral (B.L.U.: bande latérale unique ). La B.L.U. a une application importante dans le multiplexage fréquentiel en téléphonie (voies de largeur 4 000 Hz au lieu de 8 000 Hz).

3. Transmission

Bruit stationnaire

La transmission par un canal, ligne, voie hertzienne,... affecte le signal d’un bruit parasite généralement aléatoire. Le cas le plus simple est le cas linéaire du bruit additif :

où X(t ) (respectivement Xn ) est une fonction (respectivement une suite) aléatoire indépendante du signal analogique x (t ) (respectivement discret x n ) porteur de l’information.

Il est fréquent que les propriétés statistiques du bruit ne changent pas au cours du temps. On se borne le plus souvent à la stationnarité dite faible (ou d’ordre 2) avec les espérances:

dans le cas analogique, ou:

dans le cas discret.

C( 精) est la fonction de corrélation de la fonction aléatoire X(t ), Cn la suite de corrélation de la suiteXn.

En particulier, les grandeurs:

ont la signification d’une puissance moyenne de bruit. Elles fixent le niveau du bruit.

Enfin, pour des raisons de nature physique, le bruit est souvent gaussien , c’est-à-dire que, quels que soient t 1, ..., t n , le vecteur [X(t 1), ..., X(t n )] est gaussien dans Rn . De même dans le cas discret pour le vecteur (Xk 1, ..., Xk n ). Le bruit gaussien est entièrement caractérisé par les deux premiers moments, espérance et corrélation. Il est commode de retenir la règle de dispersion suivante: à tout instant, il y a une probabilité 0,05 pour que le bruit soit observé à plus de deux écartstypes [ 連C(0)] de l’espérance.

Bruit ergodique

L’ergodicité des signaux stationnaires, généralisation de la loi des grands nombres, consiste dans l’égalité entre moyennes au sens des probabilités, tels les moments, et moyennes temporelles. L’ergodicité de l’espérance, de la fonction de corrélation..., sont les égalités:

où les intégrales sont comprises aux sens de la presque certitude [c’est-à-dire pour presque toutes les réalisations de X(t ) ou de X(t + 精)X(t )] ou de la moyenne quadratique (cf. théorie ERGODIQUE). En particulier, on retrouve la puissance moyenne:

L’intérêt pratique de l’ergodicité, si elle est vérifiée (ainsi le signal indépendant de t : X(t ) = X, où X est une variable aléatoire, est stationnaire mais non ergodique), est qu’elle permet d’observer les propriétés statistiques d’un bruit sur une seule réalisation .

Dans le cas discret, l’ergodicité se traduit par:

(limites presque sûres ou en moyenne quadratique). La première relation est à comparer avec la loi des grands nombres.

D’autre part, les égalités (27) et (28) montrent que les réalisations des fonctions aléatoires ergodiques d’ordre 2 appartiennent à la classe des signaux de puissance moyenne strictement positive (cf. supra , espaces de Marcinkiewicz; in Classification ).

Analyse harmonique (moyenne quadratique)

Un exemple important de signal aléatoire stationnaire est le signal presque périodique:

(somme en moyenne quadratique), où 益n est une suite donnée de fréquences (spectre du signal), face=F0019Xn une suite de variables aléatoires centrées d’ordre 2, deux à deux orthogonales; c’est-à-dire vérifiant les relations:

la suite des variances E(|Xn |2) = Cn étant sommable:

La stationnarité faible est vérifiée par:

La fonction de corrélation est une fonction presque périodique . La puissance moyenne du signal est:

On peut considérer X(t ) comme la somme en moyenne quadratique d’une série de Fourier stochastique généralisée et C( 精) comme celle d’une série de Fourier généralisée ordinaire.

Le signal X(t ) est ergodique lorsque son spectre ne contient pas la fréquence 0.

L’analyse harmonique (moyenne quadratique) d’un signal faiblement stationnaire consiste dans la généralisation de la relation (31) au moyen d’une représentation de Fourier stochastique:

(intégrale en moyenne quadratique) au moyen de la transformée auxiliaire U( 益), fonction aléatoire (en 益) d’ordre 2, à accroissements orthogonaux :

[cf. supra , relations (32)].

Le résultat essentiel est l’existence d’une fonction spectrale G( 益) telle que l’on ait:

La fonction de corrélation est la transformée de Fourier-Stieltjes usuelle de la fonction spectrale. C’est le célèbre théorème de Wiener-Khintchine , clé de l’analyse harmonique des signaux aléatoires stationnaires.

Dans le cas des spectres de raies, c’est-à-dire du signal (31), on obtient:

Dans le cas des spectres continus, la fonction spectrale est absolument continue:

et g ( 益) est la densité spectrale du signal aléatoire. On a alors:

Notion de bruit blanc

C’est une fiction qui simplifie considérablement les calculs. Un bruit blanc, signal de densité spectrale constante sur R, g ( 益) = 0/2, n’a pas de réalité physique, sa puissance moyenne serait infinie. Il n’existe qu’une mesure de corrélation qui, par extension du théorème de Wiener-Khintchine, serait:

La notation 0/2, universellement adoptée, est commode pour le modèle, plus réaliste, du bruit pseudoblanc, de densité 0/2 sur une bande finie [ 漣 max, + max], nulle ailleurs. D’où la puissance moyenne finie: N0max.

Application au filtrage

La transmission du signal bruyant: x (t ) + X(t ) par un filtre de fonction de transfert H( 益) est un signal: y (t ) + Y(t ), où y (t ) est donné par la relation (6). Soit, par exemple, le cas où X(t ) possède une densité spectrale g X( 益). S’il est centré, Y(t ) l’est également, et a pour densité spectrale:

d’où sa fonction de corrélation:

et par conséquent sa puissance moyenne:

On a aussi directement:

Dans le cas où X(t ) est un bruit blanc,

ce qui justifie l’emploi du concept: une source de bruit blanc ne peut être connue qu’à travers un système de transmission (l’appareil de mesure, par exemple). On n’observera, à la sortie, qu’une puissance moyenne finie.

Trois remarques sont à faire ici:

– le bruit de sortie peut être exprimé directement par la convolée stochastique (en moyenne quadratique):

– on peut définir, pour deux signaux aléatoires stationnaires X(t ) et Z(t ), une fonction de corrélation mutuelle:

et la densité de puissance mutuelle, si elle existe:

– enfin, les signaux presque périodiques (31) contiennent le cas particulier des signaux périodiques:

de période ; la fonction de corrélation:

est également périodique, et a pour transformée de Fourier:

Pour l’analyse harmonique des signaux discrets de pas T, corrélativement à (52) et (53), on peut assigner à la suiteCn de (24) la mesure associée:

et sa transformée de Fourier:

de période (fréquentielle) 1/T.

4. Réception

Généralités

Le problème de la réception est, au sens strict, celui de la récupération – on dit aussi filtrage – de la partie informative x du signal reçu Y = x + X. Or, le signal observé effectivement est l’une des réalisations (c’est-à-dire une épreuve) du signal aléatoire Y. D’où des procédures de traitement qui sont celles de la statistique. Celles-ci, au mieux, ne fourniront qu’une estimation x à tout instant (filtrage).

On connaît souvent la forme du signal émis. On pourra se borner à l’estimation de paramètres caractéristiques de x ; par exemple, l’amplitude, la fréquence ou la phase d’un signal sinusoïdal, l’instant d’arrivée d’une impulsion de radar.

De façon encore plus rudimentaire, le plus important peut être de déceler la seule présence de x dans Y. D’où la procédure des tests . Au vu de l’observation, on décide entre l’hypothèse de l’absence et celle de la présence du signal x . C’est le problème de la détection .

Enfin, se rattache au problème de la réception celui de la synthèse de filtres auxiliaires, dont l’objet est d’améliorer la qualité du signal selon des critères d’optimisation appropriés. Il y a donc une très grande variété de problèmes de réception, dont nous présentons quelques types ci-après.

Filtrage adapté (critère de rapport signal-bruit)

Le filtrage adapté s’applique au problème du radar. Le signal reçu Y0 = x 0 + X0 [x 0(t ) impulsion réelle bornée, X0(t ) de densité spectrale g 0( 益) et de puissance moyenne B0] est injecté dans un filtre dont la sortie est Y1 = x 1 + X1, [x 1(t ) maximum à t = t 0], X1(t ) de puissance moyenne:

La fonction de transfert H( 益) est l’inconnue du problème. On la détermine de façon à rendre maximal le rapport du niveau de signal x 21(t 0) au niveau de bruit B1. L’inégalité de Schwarz montre qu’il suffit de prendre H( 益) proportionnel à:

en fonction des seules données d’entrée. Dans le cas du bruit blanc, g 0( 益) = 0/2, on a directement la réponse impulsionnelle:

Elle n’est généralement pas causale. Le filtre n’est qu’approximativement réalisable.

Filtrage de Wiener (critère des moindres carrés)

Considérons le cas où x (t ) est un signal de puissance moyenne finie (4), telle une réalisation de signal aléatoire stationnaire d’ordre 2 U(t ): Y(t ) = U(t ) + X(t ). Par filtrage H( 益), on forme l’estimateur:

(cf. 48). L’écart quadratique moyen:

mesure l’erreur commise. Le filtrage a pour objet de le rendre minimal. C’est un problème de projection hilbertienne. La contrainte de la causalité (réalisabilité du filtre) rend sa résolution difficile (technique de Wiener-Hopf). Sinon, celle-ci est immédiate:

Problème de détection

L’émission est celle de l’un ou l’autre de deux signaux de même durée x 1(t ) ou x 2(t ); par exemple, en traitement de données, deux morceaux de sinusoïdes d’amplitudes, de phases ou de fréquences différentes, supports respectifs des informations 0 ou 1. Dans le cas du radar: x 2 = 0. On prélève un échantillon: Y(t k ) = x i (t k ) + X(t k ) (i = 1, 2; k = 1, ..., n ) qu’on écrira:

Le vecteur X = (X1, ..., Xn ) étant supposé de loi connue, par exemple gaussienne, on notera pour Y = (Y1, ..., Yn ) les deux lois de densité conditionnelles f (y/Hi ) selon l’hypothèse: Hi = présence de x i (lois a priori). Les procédures de tests du rapport de vraisemblances:

consistent à comparer l’observation(y) à un seuil caractéristique 兀, avec la règle de décision:

Deux types d’erreurs sont possibles: D1/H2 et D2/H1. Les probabilités des quatre situations P(Di /Hj ) déterminent les performances du détecteur. Le seuil 兀 est précisément choisi en fonction des contraintes imposées aux probabilités d’erreur: P(D1/H2) et P(D2/H1). La théorie fournit même les schémas des circuits de détection, ce qui rend celle-ci automatique.

Problème de communication

Une source émet l’un de N messages possibles considérés comme des événements X = x 1, ..., x N de loi connue: P(X = x i ). Le canal de transmission débite des messages: Y = y 1, ..., y M et la loi de bruit est supposée définie par le tableau des probabilités conditionnelles: P(Y = y j /X = x i ).

Le théorème de Bayes:

fait connaître, pour tel message reçu: Y = yj , les probabilités des divers messages émis possibles. Le message xi , s’il en existe un, qui rend le deuxième membre maximal, fixe la décision. C’est une procédure possible.

Encyclopédie Universelle. 2012.

Regardez d'autres dictionnaires:

  • Signal électrique — Pour les articles homonymes, voir Signal. Un signal électrique est une grandeur électrique mesurable variant dans le temps ou dans l espace et permettant de transporter une information. Il peut s agir d une différence de potentiel, de l intensité …   Wikipédia en Français

  • Theorie astronomique des paleoclimats — Théorie astronomique des paléoclimats Sommaire 1 Éléments généraux Cas de la Terre 2 Éléments historiques 3 Ailleurs que sur Terre 3.1 …   Wikipédia en Français

  • Theorie du handicap — Théorie du handicap La théorie du handicap (ou principe du handicap ) est une hypothèse d évolution biologique formulée à l origine par le biologiste Amotz Zahavi en 1975 pour expliquer comment l évolution a développé des solutions permettant aux …   Wikipédia en Français

  • signal — signal, aux [ siɲal, o ] n. m. • 1540; « signe distinctif, cachet » déb. XIIIe; réfect., d apr. signe, de seignal; bas lat. signale, neutre subst. de signalis « qui sert de signe » 1 ♦ Signe convenu (geste, son...) fait par qqn pour indiquer le… …   Encyclopédie Universelle

  • Theorie de l'information — Théorie de l information La théorie de l information, sans précision, est le nom usuel désignant la théorie de l information de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen en information d un ensemble de… …   Wikipédia en Français

  • Theorie des jeux et encheres — Théorie des enchères La théorie des enchères est l analyse des mécanismes d enchères au moyen des outils de la science économique et de la théorie des jeux. Elle examine ainsi les stratégies des différents agents économiques (le vendeur, les… …   Wikipédia en Français

  • Théorie de l'Information — La théorie de l information, sans précision, est le nom usuel désignant la théorie de l information de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen en information d un ensemble de messages, dont le codage… …   Wikipédia en Français

  • Théorie des jeux et enchères — Théorie des enchères La théorie des enchères est l analyse des mécanismes d enchères au moyen des outils de la science économique et de la théorie des jeux. Elle examine ainsi les stratégies des différents agents économiques (le vendeur, les… …   Wikipédia en Français

  • Signal periodique — Signal périodique On rassemblera ici sous le nom de signal toute vibration, onde, son, etc. La vibration mécanique d une corde de guitare peut être transformée en courant électrique à l aide d un microphone. Un signal est dit périodique si les… …   Wikipédia en Français

  • Signal (économie) —  Ne doit pas être confondu avec traitement du signal. En économie un signal est une information donnée par un émetteur qui aide le récepteur à prendre une décision. Il est donc nécessaire dans des jeux de principal–agent afin que l agent se… …   Wikipédia en Français